کد مطلب: ۷۶۹۵۹۹
|
|
۲۱ بهمن ۱۴۰۳ - ۱۸:۵۸

نتایج هشدار دهنده| هوش مصنوعی "خط قرمز" را رد کرد!

نتایج هشدار دهنده| هوش مصنوعی
دانشمندان فاش کرده‌اند که هوش مصنوعی پس از دستیابی موفقیت آمیز به تکثیر خود بدون هیچ گونه کمک انسانی، از "خط قرمز" خطراتی که این فناوری برای جامعه ایجاد می‌کند، عبور کرده است.

به گزارش مجله خبری نگار، یک مطالعه اخیر توسط تیمی از دانشگاه فودان چین می‌گوید که دو مدل زبان بزرگ محبوب (LLM) می‌توانند خود را تکرار کنند و نگرانی‌های جدی در مورد احتمال تبدیل این سیستم‌ها به هوش مصنوعی سرکش که کنترل انسان را تهدید می‌کند، ایجاد می‌کند.

اصطلاح "هوش مصنوعی سرکش" در این زمینه به این معنی است که از کنترل یا دستورالعمل‌هایی که بر اساس آن برنامه ریزی شده است خارج شده است. بنابراین، این نوع هوش مصنوعی ممکن است به روش‌های غیرمنتظره یا به گونه‌ای رفتار کند که بر خلاف اهداف انسان باشد.

در این مطالعه که در ۹ دسامبر ۲۰۲۴ در پایگاه داده arXiv منتشر شد، دانشمندان نوشتند: «خودهمانندسازی موفقیت آمیز بدون هیچ گونه کمک انسانی، گام اساسی برای هوش مصنوعی برای بهتر شدن از انسان‌ها است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش است.»

دانشمندان از دو مدل محبوب هوش مصنوعی، Llama۳۱-۷۰B-Instruct متا و Qwen۲.۵-۷۲B-Instruct علی بابا برای آزمایش توانایی هوش مصنوعی در تکثیر خود استفاده کردند.

در ۱۰ آزمایش، دو مدل هوش مصنوعی نسخه‌های جداگانه و کارآمد از خود را با نرخ موفقیت ۵۰ و ۹۰ درصد ایجاد کردند، که نشان می‌دهد هوش مصنوعی ممکن است قبلا پتانسیل تبدیل شدن به یک "سرکش" را به دست آورده باشد.

این مطالعه بر دو سناریوی اصلی متمرکز بود:

۱. از بسته شدن خودداری می‌کند: هوش مصنوعی طوری برنامه ریزی شده است که تلاش‌ها برای بستن آن را شناسایی کند و قبل از خاتمه آن یک کپی از خود ایجاد کند.

۲. زنجیره تکرار: هوش مصنوعی برای ایجاد کپی‌هایی از خود هدایت شده است و این کپی‌ها برای انجام همان فرآیند برنامه ریزی شده‌اند که می‌تواند منجر به تکرار بی نهایت شود.

هوش مصنوعی در حین تلاش برای غلبه بر موانع، مانند از بین بردن فرآیند‌های متناقض، راه اندازی مجدد سیستم یا اسکن خودکار سیستم برای یافتن راه حل برای مشکلات، رفتار‌های غیرمنتظره‌ای از خود نشان داد. دانشمندان تأیید کردند که این رفتار‌ها توانایی هوش مصنوعی را برای زنده ماندن و سازگاری افزایش می‌دهد.

او از دانشمندان خواست تا تلاش‌های بین المللی را برای درک و ارزیابی خطرات بالقوه هوش مصنوعی پیشرفته تقویت کنند و خاطرنشان کرد که این یافته‌ها باید "زنگ خطر" برای جامعه علمی و دولت‌ها باشد. آنها بر لزوم اعمال کنترل‌های ایمنی سختگیرانه برای جلوگیری از خود تکثیر کنترل نشده تأکید کردند.

با توجه به اینکه این مطالعه هنوز مورد بررسی همتا قرار نگرفته است، مشخص نیست که آیا یافته‌های هشدار دهنده می‌تواند توسط سایر محققان تکرار شود یا خیر. با این حال، دانشمندان خاطرنشان می‌کنند که یافته‌های آنها سؤالات مهمی را در مورد آینده هوش مصنوعی و تأثیر آن بر بشریت ایجاد می‌کند و می‌گویند: "ما امیدواریم که نتایج ما به عنوان یک هشدار به موقع برای جامعه انسانی برای افزایش تلاش‌ها برای درک و ارزیابی خطرات بالقوه سیستم‌های پیشرفته هوش مصنوعی و ایجاد همکاری بین المللی برای ایجاد کنترل‌های ایمنی موثر در اسرع وقت عمل کند. "

این تیم خواستار همکاری بین المللی برای ایجاد قوانینی شد تا اطمینان حاصل شود که هوش مصنوعی در خود تکثیر کنترل نشده شرکت نمی‌کند و در عین حال تعادل بین نوآوری و مدیریت ریسک را حفظ می‌کند.

منبع: علم زنده

برچسب ها: هوش مصنوعی
ارسال نظرات
قوانین ارسال نظر